AI资讯新闻榜单内容搜索-NeurIPS 20

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: NeurIPS 20
NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

NeurIPS 2024 | FaceChain团队新作,开源拓扑对齐人脸表征模型TopoFR

在数字人领域,形象的生成需要依赖于基础的表征学习。FaceChain 团队除了在数字人生成领域持续贡献之外,在基础的人脸表征学习领域也一直在进行深入研究。

来自主题: AI技术研报
6119 点击    2024-10-18 11:09
机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

机器人世界模型,TeleAI用少量数据完成训练 | NeurIPS 2024

TeleAI 李学龙团队提出具身世界模型,挖掘大量人类操作视频和少量机器人数据的共同决策模式。

来自主题: AI技术研报
4666 点击    2024-10-16 14:31
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
7428 点击    2024-10-12 14:29
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
7260 点击    2024-10-11 13:55
NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

该研究主要探讨了大语言模型的全局剪枝方法,旨在提高预训练语言模型的效率。该成果的发表为大模型的剪枝与优化研究提供了新的视角,并在相关领域具有重要的应用潜力。

来自主题: AI技术研报
5549 点击    2024-10-10 17:17
阿里妈妈给出了什么样的赛题,被顶会NeurIPS 2024 pick了?

阿里妈妈给出了什么样的赛题,被顶会NeurIPS 2024 pick了?

阿里妈妈给出了什么样的赛题,被顶会NeurIPS 2024 pick了?

在众多人工智能顶会中,NeurIPS 属于什么段位?有人将其代入《甄嬛传》宇宙做了张图:大概配享「后位」。

来自主题: AI资讯
6401 点击    2024-07-15 13:53
剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

PreFLMR模型是一个通用的预训练多模态知识检索器,可用于搭建多模态RAG应用。模型基于发表于 NeurIPS 2023 的 Fine-grained Late-interaction Multi-modal Retriever (FLMR) 并进行了模型改进和 M2KR 上的大规模预训练。

来自主题: AI资讯
11189 点击    2024-03-25 17:01
几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

本文提出了扩散模型中UNet的long skip connection的scaling操作可以有助于模型稳定训练的分析,目前已被NeurIPS 2023录用。同时,该分析还可以解释扩散模型中常用但未知原理的1/√2 scaling操作能加速训练的现象。

来自主题: AI技术研报
7973 点击    2024-02-29 13:52